Възходът на измами с Deepfake - и как да не паднем за един
бихте ли работили на явен съвет от Мартин Волф, основният коментатор на ветерана на FT?
Неговият специалист разбор има характерности в доста законни финансови видеоклипове, оповестени в обществените медийни сметки на FT, само че Scammers са генерирали, като се появяват, като се появяват препоръки, които се появяват, като се появяват в доста законни финансови видеоклипове. ;
Meta, притежател на WhatsApp и Instagram, сподели на FT, че е премахнал и деактивира рекламите, само че читателите би било рационално да внимават за повече измами от този темперамент, защото измамите Deepfake вървят в мейнстрийм.
Какво стои зад повишаването на измамите на Deepfake?
Бързият напредък на генеративния AI (изкуствен интелект). Технологията, нужна за основаване на синтетични видеоклипове и изображения, е евтина, елементарно налична и лесна за измамниците, които да употребяват за основаване на безапелационно изглеждащо наличие.
Deepfakes на известни персони, в това число Тейлър Суифт, Елон Мъск и са основани за разпространение на всичко - от кухненски съдове до криптовалути и хапчета за диета. Миналата година английски мъж загуби 76 000 английски лири от машинация на Deepfake, където Мартин Люис, създателят на специалиста по икономисване на пари, наподобява, че промотира несъществуваща скица за биткойн. измамници? Помислете още веднъж
„ Deepfakes работят като сексапил за измамниците, защото доста консуматори на обществените медии просто не знаят на какво е кадърен генеративен ИИ, когато става въпрос за основаване на безапелационни видеоклипове за показване “, сподели той. „ Те виждат видео като Deepfake на Мартин Волф и имат вяра, че е същинско, тъй като те просто нямат информация да го слагат под въпрос. “
Люис, който твърди, че има „ странното самопризнание “, че е най-забележимото лице във Англия, предизвестява за възхода в рекламите на Deepfake на ITV на Good Morning Britain тази седмица. ; „ Ако ме накара да ме вкара, аз в никакъв случай не върша реклами, тъй че е подправен. Всичко ви бърза да печелите пари. Фалшиви, подправени, подправени, не им имат вяра, те са нарушители. “
Какви други форми могат да одобряват видеоклипове? Експертите по измами настояват, че Deepfakes от ден на ден се употребяват на видео диалози, с цел да се показват за висшия личен състав в корпоративните организации, убеждавайки други чиновници да обработват заплащания, които се оказват лъжливи.
Миналата година инженерната компания на Обединеното кралство Arup загуби 25 милиона $ (20 милиона паунда), когато чиновник в Хонконг беше уверен да направи 15 банкови прехвърляния, откакто измамници цифрово клонират основния финансов шеф на компанията на видео конференция. Колкото по -реалистичен ще бъде CopyCat.
As the technology progresses, deepfake videos have the potential to make romance scams even more convincing, and could potentially be used to manipulate images of friends and family members making requests for money.
What more should social media platforms do?
While social media platforms say they will use facial recognition to spot and take down fake ads, they don’t have to stay up for long to gain traction.
As Martin Wolf himself has said: “How is it possible that a company like Meta with its huge resources, including artificial intelligence tools, cannot identify and take down such frauds automatically, particularly when informed of their existence? ”
Meta told the FT: “It’s against our policies to impersonate public figures and we have removed and disabled the ads, accounts, and pages that were shared with Съединени американски щати.
„ Измамниците са безмилостни и непрестанно развиват своите тактики, с цел да се опитат да избегнат откриването, заради което непрестанно създаваме нови способи да затрудним измамниците да заблудят другите - в това число потреблението на технологията за различаване на лица “, добави Мета.
„ Простият факт е, че когато тези видеоклипове са сложени в обществените медии като реклами, те минават през развой на инспекция “, сподели Стейпълтън. „ Ако харесванията на META просто биха помислили да влагат повече от големите си облаги в по -добро инспекция и по -добра сдържаност на общите изявления, това ще стане по -малко проблем доста бързо. “
Съгласно новия онлайн закон за сигурност на Обединеното кралство, софтуерните компании би трябвало да дефинират задачите на успеваемостта, с цел да отстранен противозаконния материал бързо, когато те станат наясно с него и тестови алгоритъми, с цел да създадат противозаконното наличие, с цел да се популяризира по -трудно. Deepfake?
Най -горният съвет на Stapleton за забелязване на цифрово манипулирани изображения е да погледнете устата на индивида, за който се допуска, че приказва на камера: в действителност ли прави формите на думите? На последващо място, погледнете кожата им: плоска ли е в текстура, без определение или бръчки? И погледнете очите им: мигат ли въобще или прекалено много?
Накрая, слушайте тона на гласа им. „ AI се бори с обсега на човешките гласове, тъй че Deepfakes ще има податливост да звучи доста плосък и даже в тона и да липсва страст “, сподели той.
Видеоклипът на Deepfake на вълка на FT не звучеше доста като него, само че защото толкоз доста консуматори на обществени медии гледат видеоклипове на Silent и четат надписите, Scammers получават в допълнение преимущество.
Накрая, бъдете изключително внимателни от рекламите в обществените медии. Ако не можете да намерите информацията, регистрирана на никое място другаде, това е съвсем несъмнено подправен.
Какво да извършите, в случай че сте се представяли онлайн
Докладвайте измамата на комерсиалния обект на обществените медии, като употребявате инструментите за отчитане на платформата. Също по този начин, уведомете приятелите и почитателите си за подправения акаунт, с цел да попречи на тях да бъдат подведени.
Ако сте били жертва на тази машинация на Deepfake или продължете да виждате видеоклипа на Deepfake на Мартин Волф в платформите за обществени медии, апелирам, споделете опита си с FT в